iT邦幫忙

2023 iThome 鐵人賽

DAY 14
0
AI & Data

紮實的ML機器學習原理~打造你對資料使用sklearn的靈敏度系列 第 14

DAY 14 「梯度提升樹(Gradient Boosting Decision Trees / GBDT)」集成來做鳶尾花分類啦~

  • 分享至 

  • xImage
  •  

再一個集成學習方法~~

/images/emoticon/emoticon06.gif白話來說通過叠代地訓練決策樹每一棵樹都試圖糾正前一棵樹的預測錯誤從而逐步提升模型的性能

  • 基本原理:
    初始化模型:使用一個簡單的模型(比如一個單節點樹或一個常數)來進行初始預測。
    計算殘差:計算當前模型的預測值與實際值之間的殘差(即誤差)。
    訓練新模型:訓練一個新的決策樹模型,該模型的目標是擬合當前模型的殘差。
    更新模型:將新模型的預測結果與之前模型的預測結果相加,得到一個更好的預測結果。
    重覆步驟 2 到 4:重覆多次,直到滿足停止條件(比如達到指定的叠代次數或誤差閾值)。

靈活性:GBDT 可以擬合各種類型的數據(數值型、類別型、文本等)。
高性能:在許多問題中,GBDT 提供了很高的預測準確度。
對異常值魯棒:由於采用了梯度下降的方式,GBDT 對異常值的影響相對較小。

from sklearn.ensemble import GradientBoostingClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

# 載入鳶尾花數據集
iris = load_iris()
X, y = iris.data, iris.target

# 將數據集劃分為訓練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 初始化GBDT分類器
gbdt_model = GradientBoostingClassifier(n_estimators=100, learning_rate=0.1, max_depth=3, random_state=42)

# 在訓練集上訓練模型
gbdt_model.fit(X_train, y_train)

# 在測試集上進行預測
y_pred = gbdt_model.predict(X_test)

# 計算準確度
accuracy = accuracy_score(y_test, y_pred)
print(f'準確度:{accuracy}')

上一篇
DAY 13 「隨機搜索(Random Search)& Halving 網格搜索(Halving Grid Search)」最佳超參數組合來做鳶尾花分類啦~
下一篇
DAY 15 「樸素貝葉斯優化HyperOpt&Optuna&GPyOpt&Scikit-Optimize」大魔王教你超級強大自動優化sklearn參數啦~
系列文
紮實的ML機器學習原理~打造你對資料使用sklearn的靈敏度30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言